AI 杀人武器来临,谷歌技术帮助美军方无人机识别更精准
点击上方“CSDN”,选择“置顶公众号”
关键时刻,第一时间送达!
不知大家是否还记得去年 CSDN 报道的联合国曝光 AI 杀手机器人事件,在日内瓦举办的联合国特定常规武器公约(CCW)会议上播放的一段视频显示,一群神似《黑镜 III》中机器杀人蜂的小型机器人,通过人脸定位瞬间杀死了正在上课的一众学生,场面血腥。
想象一下,类似上述的 AI 杀手机器人等致命武器一旦落入恐怖分子之手,会造成怎样严重的后果。
而现在,据外媒 Gizmodo 报道,Google 正与美国国防部合作开发无人机软件,该项目将应用谷歌的机器学习技术,帮助美军方无人机识别效果更加精准。同时,谷歌的这一项目也引发了部分员工关于隐私信息和道德层面的考虑。
图片来源:Gizmodo
谷歌机器学习项目 Maven 使识别效果更精准
这个被称为 “Maven” 的项目始于去年 4 月份,以“加速融入国防部人工智能及机器学习等技术”为主要任务。此外,项目还有个别称是“算法战跨职能小组(AWCFT)”。
美国国防部发布的报道表示,该项目旨在帮助处理军队收集的“数百万个小时的无人机拍摄视频”。五角大楼的无人机镜头增速比以往人类分析师的速度更快,所以他们迫切希望借助机器学习来完成一些繁重的工作。作为 YouTube 的拥有者,Google 无疑是世界上视频素材最多的专家。
报道称,Maven 项目最初主要是用于伊斯兰国的战斗中,现在的话,则为军方提供了一种“精准识别个人的能力”。
Maven 引发员工不满,认为侵犯隐私以及涉及道德问题
但根据 Gizmodo 的报告,谷歌的这一举措也引发了部分员工的不满。
有些员工认为公司为军方提供的无人机监控操作会严重侵犯隐私安全,另外有些员工则认为它引发了有关机器学习发展和使用的重要道德标准问题。
Google 的一位发言人对报告作出了回应,他说:“我们长期与政府机构合作,为他们提供技术解决方案。这次的项目是国防部的试点项目,提供开源的 TensorFlow API,可以帮助识别未分类数据上的对象。”
该发言人补充说:“该技术所标识的图像仅供人类审查,不会存在侵犯隐私性的冒犯性使用。事实上,机器学习的军事使用已经引起了有关部门的关注,我们也有在内部和其他人积极讨论这个重要议题。我们将继续围绕开发和使用机器学习技术制定有效的政策和保护措施。”
————— 推荐阅读 —————
点击图片即可阅